目前有技术节点缩放,早期设计阶段的精确预测模型可以显着降低设计周期。特别是在逻辑合成期间,预测由于逻辑组合不当导致的细胞拥塞可以减少后续物理实现的负担。已经尝试使用图形神经网络(GNN)技术来解决逻辑合成阶段的拥塞预测。然而,它们需要信息性小区特征来实现合理的性能,因为GNN的核心概念构建在消息通过框架上,这在早期逻辑合成阶段将是不切实际的。为了解决这个限制,我们提出了一个框架,可以直接学习给定网表的嵌入式,以提高节点功能的质量。基于流行的随机播放的嵌入方法,如Node2VEC,LINE和DeadWalk遭受横绘对齐和普遍性的问题,以取消差价,效率低于性能和成本耗费的运行时。在我们的框架中,我们介绍了一种卓越的替代方案,可以获得可以使用矩阵分解方法概括在网表图中的节点嵌入。我们在子图水平上提出了一种高效的迷你批量培训方法,可以保证并行培训并满足大规模网手册的内存限制。我们呈现利用开源EDA工具的结果,如Dreamplace和OpenORAD框架上的各种公开的电路。通过将学习的嵌入在网手册的顶部与GNN结合,我们的方法可以提高预测性能,推广到新电路线,并且在训练中具有高效,潜在节省超过$ 90 \%运行时。
translated by 谷歌翻译